Random forest

Random forest (o random forests) también conocidos en castellano como Bosques aleatorios es una combinación de árboles predictores tal que cada árbol depende de los valores de un vector aleatorio probado independientemente y con la misma distribución para cada uno de estos. Es una modificación sustancial de bagging que construye una larga colección de árboles no correlacionados y luego los promedia.[1][2]

El algoritmo para inducir un random forest fue desarrollado por Leo Breiman[3]​ y Adele Cutler y Random forests es su marca de fábrica. El término aparece de la primera propuesta de Random decision forests, hecha por Tin Kam Ho de Bell Labs en 1995. El método combina la idea de bagging de Breiman y la selección aleatoria de atributos, introducida independientemente por Ho,[4][5]​ Amit y Geman,[6]​ para construir una colección de árboles de decisión con variación controlada.

La selección de un subconjunto aleatorio de atributos es un ejemplo del método random subspace, el que, según la formulación de Ho, es una manera de llevar a cabo la discriminación estocástica[7]​ propuesta por Eugenio Kleinberg.

En muchos problemas el rendimiento del algoritmo random forest es muy similar a la del boosting, y es más simple de entrenar y ajustar. Como consecuencia, el Random forest es popular y ampliamente utilizado.

  1. Piryonesi, S. Madeh; El-Diraby, Tamer E. (2020-06). «Role of Data Analytics in Infrastructure Asset Management: Overcoming Data Size and Quality Problems». Journal of Transportation Engineering, Part B: Pavements (en inglés) 146 (2): 04020022. ISSN 2573-5438. doi:10.1061/JPEODX.0000175. Consultado el 7 de agosto de 2020. 
  2. Hastie, Trevor.; Friedman, J. H. (Jerome H.) (2001). The elements of statistical learning : data mining, inference, and prediction : with 200 full-color illustrations. Springer. ISBN 0-387-95284-5. OCLC 46809224. Consultado el 7 de agosto de 2020. 
  3. Breiman, Leo (2001). «Random Forests». Machine Learning 45 (1): 5-32. doi:10.1023/A:1010933404324. 
  4. Ho, Tin Kam (1995). Random Decision Forest. Proceedings of the 3rd International Conference on Document Analysis and Recognition, Montreal, QC, 14–16 August 1995. pp. 278-282. Archivado desde el original el 4 de julio de 2008. 
  5. Ho, Tin Kam (1998). «The Random Subspace Method for Constructing Decision Forests». IEEE Transactions on Pattern Analysis and Machine Intelligence 20 (8): 832-844. doi:10.1109/34.709601. Archivado desde el original el 30 de septiembre de 2007. 
  6. Amit, Yali; Geman, Donald (1997). «Shape quantization and recognition with randomized trees». Neural Computation 9 (7): 1545-1588. doi:10.1162/neco.1997.9.7.1545. Archivado desde el original el 5 de febrero de 2018. Consultado el 3 de enero de 2013. 
  7. Kleinberg, Eugene (1996). «An Overtraining-Resistant Stochastic Modeling Method for Pattern Recognition». Annals of Statistics 24 (6): 2319-2349. MR 1425956. doi:10.1214/aos/1032181157. Archivado desde el original el 19 de julio de 2011. 

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search